AI构建智能无线网络技术与标准
(二)应用例与解决方案
(1)CSI反馈增强
在Rel-18 空口AI课题研究中,关于CSI增强用例,识别出了两个代表性子用例:CSI压缩反馈和CSI时域预测。
CSI压缩反馈是将基站和终端之间的信道状态信息压缩反馈看作一个特别的端到端图像压缩恢复问题。如图2所示,其基本流程如下:
1) 在终端侧部署一个编码器和与之对应的量化器,在基站侧部署一个解码器和对应的解量化器;
2) 终端首先测量下行的多个子带的信道信息,输入到编码器和量化器,然后将量化器输出的比特信息发送给基站;
3) 基站接收终端发送的上述比特信息,输入到解量化器和解码器,基站根据解码器的输出,获得恢复的信道信息。
为了保证获得最佳的CSI压缩率和恢复精度,编码器和解码器、量化器和解量化器在训练过程中需要进行联合优化。实际部署时,编码器与解码器、量化器和解量化器也需要按照训练过程的方式配对使用,保证实际模型部署时的推理性能。
CSI时域预测用于解决无线信道变化及CSI反馈延迟会导致基站获得的信道状态信息不准确,进而导致基站难以进行合理的资源调度和预编码操作,造成系统频谱效率的降低的问题。解决方式之一是通过提取历史CSI中的时间变化规律,并进行CSI时域预测,实现对过期的CSI反馈进行补偿,基本实现方式如下:
1) 终端测量历史时刻的CSI;
2) 将测量得到的历史CSI输入部署在终端侧的AI模型;
3) AI模型输出未来时刻的CSI;
4) 终端将预测得到的未来CSI反馈给基站;
5) 基站基于获取的未来CSI,并结合终端业务情况,进行合理的资源调度和预编码。
关于CSI预测问题,传统上有一些基于非AI的实现方案,如基于自回归(auto-regression,AR)、卡尔曼滤波(Kalman filter)等算法,相比上述基于最近历史CSI的CSI反馈方案,基于AI的CSI预测方案最多可提升约10.6%的系统平均UPT。
(2)波束管理增强
在传统的波束管理流程中,基站配置终端测量部分波束,并基于终端测量结果和网络负载调度情况,指示其中一个波束与终端通信。在一些场景下,特别是终端高速移动场景,基站配置测量的波束往往不是最优波束,因此波束选择受限于基站配置。
AI波束管理的典型子用例是空域发送波束预测和时域发送波束预测。
空域发送波束预测仅需测量较少的参考信号,通过AI模型预测所有波束中的最优波束,在降低终端参考信号测量开销的同时,可提高约70%的最优波束预测准确率。
时域发送波束预测基于过去时刻较少的参考信号测量结果,预测未来若干时刻的最优波束,仿真评估表明可以提高60%的最优波束预测准确率。基站根据预测的top K最优波束和负载、调度情况进行波束指示,可大幅度提升与终端通信的波束质量和吞吐量。
发送波束预测的AI模型属于单侧模型,可以部署在终端侧或网络侧,对不同场景、终端接收天线配置、终端波束码本等具有较好的泛化性,协议影响相比于双侧模型更小。
如果模型部署在网络侧,协议影响主要在于数据收集和推理阶段。数据收集需要对数据内容、信令、框架进行定义,并且训练、推理、监控不同阶段的数据收集内容和使用信令也有所不同。
例如用于离线训练的数据收集需要上报所有波束质量,但对时延不敏感,可以使用高层信令基于batch上报;而用于推理的数据收集需要上报较少波束的质量,并且由于基站需要保证波束指示的即时性,对时延较敏感,可以使用层1信令上报。并且考虑到训练的数据集样本量多达几十万条,需要设计新的量化方式或上报方式以降低上报开销。
在推理阶段,终端需要上报一个或多个时刻的参考信号测量结果,不同时刻参考信号图样可能不同,也需要增强现有CSI上报框架以支持更高效的测量结果上报。
监控阶段涉及监控KPI、对比基线的定义,由于网络侧的波束预测只支持网络侧监控,终端只需周期性测量所有参考信号并上报波束质量,由网络计算监控KPI并对模型切换/更新/回退作出判决,监控的协议影响相对而言较小。
如果模型部署在终端侧,协议影响主要在于数据收集、推理和监控。
数据收集需要先上报所需样本量、终端测量的参考信号图样等配置需求,涉及到类似终端能力上报的数据收集需求上报机制设计,然后基站按需配置参考信号用于终端测量和数据收集。
推理阶段为了满足终端上报未来多个时刻top K最优波束质量的需要,需对现有CSI上报框架进行增强设计。
对于终端侧模型的性能监控,有终端监控、联合监控、网络监控三种监控方式,涉及到监控参考信号配置,以及终端监控结果或测量结果的上报增强,最终都由网络对模型切换/更新/回退作出决策,充分保证了网络对AI模型的管理控制权。
(3)定位增强
传统的基于RAT的定位技术,主要使用TDOA等时域信息以及AoD等角度信息进行用户位置解算。这些定位算法需要终端和多个定位基站之间存在LOS径信道才能获得较为精确的位置坐标。在信道环境较为复杂的场景(例如室内工厂等),由于NLOS径比例过高,传统定位算法很难获得足够精准的定位结果。
基于AI的定位增强技术,借助包含用户位置坐标和对应信道的数据集完成AI模型的训练,可以从大量数据中提取出频域、时域、空域等多个维度的隐藏规律信息,克服NLOS场景以及基站间同步误差等不利因素。Rel-18的仿真结果表明,基于AI的定位增强技术,可以在仿真评估场景(InF-DH)下,获得满足3GPP要求(亚米级)的定位精度。
基于AI的定位增强技术可以从以下几个维度进行细分:
从原理角度讲,可以分为基于AI的直接定位和基于AI的辅助定位技术。两者的模型输入数据都为信道的测量量,基于AI的直接定位模型输出即为用户位置坐标;基于AI的辅助定位,其输出为现有传统定位的测量量以及LOS/NLOS径指示信息等,这些信息随后输入传统定位算法得到用户位置坐标。研究阶段的仿真结果显示,基于AI的直接定位和基于AI的辅助定位技术都可以满足定位精度的要求。
从使用AI模型进行推理的实体进行区分,可以主要分为终端侧,网络侧以及LMF侧。AI模型处于不同的实体,对用于测量的RS,数据交互的信令,以及设备的能力有着不同的要求。在Rel-18阶段,根据AI定位的原理以及使用AI模型进行推理的实体进行排列组合,主要识别出如下的5个子用例。
Case1:基于UE的定位,UE侧模型,AI直接或辅助定位
Case2a:UE辅助/基于LMF的定位,UE侧模型,AI辅助定位
Case2b:UE辅助/基于LMF的定位,LMF侧模型,AI直接或辅助定位
Case3a:NG-RAN节点辅助的定位,基站侧模型,AI辅助定位
Case3b:NG-RAN节点辅助的定位,LMF侧模型,AI直接定位
在Rel-18 SI阶段,主要梳理出如下需要后续标准化研究增强的潜在方向:
1)数据收集:数据收集是AI模型工作流程的基础,AI模型的训练(监督或半监督模型)需要较大量的数据(输入数据和标签)支撑;在模型推理阶段,同样需要标签与模型输出进行对比,用于验证AI模型的性能。数据收集的潜在增强点包括Ground Truth Label、测量量、数据质量指示、参考信号配置以及时间戳等。
Ground Truth Label标签为用户的真实位置坐标。然而,如何在实际部署场景中获得用户位置坐标是AI定位用例的难点。在可用PRU(Positioning Reference Unit,定位参考单元,一种特殊UE)数量有限的情况下,可能需要终端或网络实体基于非NR 定位方法、依赖NR RAT 定位方法、依赖非NR RAT 定位方法,或者以上几种定位方式相结合来获得Ground Truth Label标签,在可能的情况下还需要生成数据质量指示信息,用于帮助后续数据处理和决策。并且在获取Ground Truth Label过程中还需要考虑用户隐私性等问题。
AI定位模型的输入数据为用户信道数据(例如CIR,PDP,TDOA等),很多公司在Rel-18 SI阶段的仿真评估结果表明CIR(信道冲激响应)等更复杂的信道信息能够带来更精确的定位结果,但存在CIR上报量的开销较大的问题,因此在Rel-19 WI阶段,需要进一步分析上报量的类型,以及潜在降低上报开销的方法。
对于参考信号的配置,主要研究AI定位是否需要在现有的定位测量参考信号基础上进行额外的增强,以及用于请求该配置的辅助信令增强等。
数据质量指示以及时间戳主要用于指示对应测量量或者Ground Truth Label的质量以及产生的时间,帮助使用这些数据的实体更好的判断数据的可用性。
2)模型监控:基于模型性能的监控可以用于模型的管理,例如当模型性能不理想时,可能需要切换模型,或者回退到非AI方案等。
在Rel-18阶段,主要识别出两种潜在的模型性能监控方案:存在Ground Truth Label标签时,监控的度量标准可以基于模型输出与Ground Truth Label之间差异的统计量,例如均值、标准差、瞬时值、阈值等。而当不存在Ground Truth Label标签时,监控的度量标准可以基于模型输入在模型推理阶段与模型训练阶段之间差异的统计量,或者基于模型推理阶段的模型输出与训练阶段的模型输出或者与模型过去推理阶段的输出数据之间差异的统计量。(4)网络节能
为了满足5G网络的性能需求和移动用户数的增长,全球将部署几百万5G基站。这些基站的部署,将大大增加能耗、二氧化碳的排放和运维开销。因此,网络节能成为5G时代必须解决的一大难题。小区激活与去激活、减少负载、覆盖调整都是网络节能的解决方案,但是方案应用不当将带来一些潜在的风险,如不当的小区关闭会使得网络性能恶化,错误的业务分流会导致网络能耗不降反升。
基于AI的节能方法能够预计能耗效率及后续小区负载状况,以便于实现更好的小区激活/去激活决策。在Rel-18阶段,针对网络节能用例,AI模型输入主要为从邻站和当前基站获取的资源状态信息和能耗指标值,其中,能耗指标值与能耗值的映射由运营商来定义。此外,对于负荷的预测可以帮助网络动态地配置节能机制,如小区关断的时间和颗粒度,何时进行负载分流等,使得在系统性能和节能时间达到较好的平衡。
AI节能方案具体实施效果如下:
在测试区域中有1089个小区和328个基站。基站使用的关闭策略包括符号关闭、信道关闭和载波关闭。在启用了AI节能功能后,由于每个小区的动态计算和调整策略,每个小区每天的关闭时长相比传统节能方法得到了显著改善,如下图7所示。
根据图7中的结果,在节能方案中使用AI算法,每种关闭策略的节能时长将增加90%以上。此外,使用AI算法后,每个小区每天的实际节能效果也显著提高。图8显示,不论使用哪种关闭策略,AI节能方案相比传统方案都展现出更好的节能效果。
(5)负载均衡
业务的迅速增长和网络中使用的频带增加使得网络的业务负载均衡变得更加具有挑战性。负载均衡的目的就是使得业务在小区间进行较为均衡的分布,或者把拥塞的小区中的部分业务转移到其它小区中去,或者把用户转移到别的小区或载频或网络来提升网络的性能。负载均衡可以通过优化切换参数和切换行为来实现。
基于AI的负载均衡解决方案通过对现有接口进行增强(包括数据采集参数及相应配置增强),采集来自终端和网络节点的多样的测量和反馈信息、历史数据以及预测的负荷信息等,输入至AI/ML模型进行推断,得到合适的负载均衡决策,提升负载均衡的性能,提供更高质量的用户体验,并提升网络性能。
在R18阶段,获取邻站的预测信息以及从邻站获取UE性能反馈信息为主要研究点,其中,针对预测信息的获取,邻站可只反馈部分请求的信息,并在响应消息中携带不能反馈的请求信息,以提升基站反馈的灵活度;针对UE性能反馈信息,统一由DATA COLLECTION REQUEST消息配置,并通过Measurement ID来进行后续切换UE与配置信息的关联,以便于目标基站了解切换UE需要反馈的性能信息,在减小信令开销的同时,也减小对现有标准的影响。
(6)移动性优化
移动性优化是一种保障UE在网络中移动的业务连续性的策略,包括减少掉话、无线链路失败,不必要的切换和乒乓切换等。一方面,由于将来网络部署的频段越来越高,每个节点的覆盖范围减少,尤其是高铁或高速公路上的用户,UE的切换行为更加频繁。另一方面,对于可靠性高、时延要求敏感的业务,对切换过程的QoE体验更为敏感,因此移动性管理需要避免切换失败、减少切换时延等。此外,双连接、条件切换、双激活协议栈等都对移动性的优化有额外的需求。
基于AI的移动性管理优化目的是加强UE的位置或移动性预测,避免过晚切换、过早切换、切换到错误的小区等潜在问题,并进行业务分流。
为了使目标基站能够获取移动性相关的预测信息,从而对即将切换的UE进行资源的最佳分配,源基站可通过切换准备过程将UE轨迹预测信息(例如,预测UE将连接到的小区等)传递给目标基站,以提供后续移动性决策的信息。为了实现AI模型预测性能的评估,目标基站在切换执行成功时开始收集测量到的UE轨迹信息,并报给源基站,以便源基站进行模型的更新。
[1] 3GPP TR 37.817, Study on enhancement for Data Collection for NR and EN-DC
[2] RP-201620, Revised SID: Study on enhancement for data collection for NR and ENDC
[3] RP-233441, Revised WID: Artificial Intelligence (AI) /Machine Learning (ML) for NG-RAN
[4] RP-213599, New SI: Study on Artificial Intelligence (AI)/Machine Learning (ML) for NR Air Interface
[5] 3GPP TR 38.843, Study on Artificial Intelligence (AI) / Machine Learning (ML) for NR air interface
[6] R3-206720, AI based Energy Saving
审稿:无线与终端技术研究所 | 胡南
本文作者
往期精彩